FILTER MODE ACTIVE

#mixture of experts

Найдено записей: 2

#mixture of experts28.10.2025

MiniMax M2: открытая MoE для быстрых и дешёвых рабочих процессов кодирования и агентных задач

'MiniMax-M2 — компактная MoE с открытыми весами на Hugging Face, оптимизированная под кодирование и агентные цепочки с примерно 10B активных параметров на токен и обещанной скоростью ~2x при ~8% стоимости Claude Sonnet.'

#mixture of experts19.07.2025

FlexOlmo: революция в обучении языковых моделей без обмена данными

FlexOlmo предлагает модульный фреймворк для обучения крупных языковых моделей на приватных данных без обмена ими, обеспечивая высокую производительность и соблюдение правил управления данными.